Vielen Dank für die Einladung und für das Gespräch.
Heute
wie Sie sehen können
möchte ich Ihnen ein bisschen über die Schale eines Trainings sprechen.
Ich werde sehr klein beginnen.
Ich werde Ihnen ein Beispiel zeigen, was passiert, wenn Sie ein Training auf einer Stelle machen.
Um etwas Motivation zu geben
um ein bisschen zu wissen
was das Hardware
das Sie benutzen und das Software
das Sie benutzen
und was Sie für Ihre eigenen Vorteile tun können
um das Training schneller zu machen.
Schlechter ist ein sehr wichtiges Thema.
Man kann es in verschiedenen Wegen interpretieren, wie z.B.
schneller gehen, schneller konvertieren mit Ihrem Modell,
damit Sie weniger Schritte machen müssen, um eine gute Akkurativität zu erreichen,
oder schneller gehen
in dem Sinne
dass jeder Schritt des Trainings schneller ist
weil Sie Ihren Code optimieren.
Aytoff Agenda
das wurde ich so geschgroundert
dass es interaktiv werden kann.
Die Besespace wird genutzt.
Auf der Seite officer ich die verschiedenenixed smoother oder containerоре sections
Ich habe einige Slides
die ein Summary von allem sind.
Wenn Sie mich noch eine Frage stellen möchten,
habe ich viele Slides
die wir in der Nähe von Ihnen interessieren können.
Bitte fragen Sie eine Frage und versucht es interaktiv zu halten.
Ich weiß nicht
ob ich den Chat in Zoom sehe
aber vielleicht jemand
der sich die Frage ansprechen möchte, schreit.
Sie haben mich bereits eingeladen, aber es ist schön, Sie zu treffen.
Ich bin Andrea.
Ich bin jetzt in Bologna und arbeite für Nvidia.
Mein Hauptkollege
den ich unterstütze
ist Cineca
das italische Supercomputing-Zentrum.
Ich arbeite auch in einem Gruppe solvierender Architekten
die akademische Ressourcers unterstützen.
Dieses Gruppe ist Nvidia AI Technology Center.
Wir sind überall in Europa und weltweit vertreten.
Unser Ziel ist es
Ressourcers zu unterstützen
die Nvidia Technologie nutzen wollen
Presenters
Zugänglich über
Offener Zugang
Dauer
01:00:48 Min
Aufnahmedatum
2026-02-02
Hochgeladen am
2026-02-02 10:35:31
Sprache
de-DE
Slides
Abstract:
In this talk, we explore scaling laws to understand the rationale behind large-scale training. We discuss how to apply parallelization techniques effectively, ensuring they are used where they deliver the greatest benefit. Finally, we introduce low-precision training methods to maximize cluster performance and efficiency.
For a list of past and upcoming NHR PerfLab seminar events, please see: https://hpc.fau.de/research/nhr-perflab-seminar-series/